跟 NVIDIA 學深度學習!從基本神經網路到 CNN.RNN.LSTM.seq2seq.Transformer.GPT.BERT...,紮穩機器視覺與大型語言模型 (LLM) 的建模基礎

NT $ 880
NT $ 748


▍AI界扛霸子NVIDIA的深度學習(DeepLearning)指定教材!▍GPT、Transformer、seq2seq、self-attention機制...大型語言模型(LLM)背後的先進技術「硬派」揭密!近年來,在NVIDIA(輝達)GPU、CUDA技術的推波助瀾下,深度學習(DeepLearning)領域有著爆炸性的成長,例如最為人知的ChatGPT正是運用深度學習技術開發出來的當紅應用。【★學深度學習,跟AI重要推手-NVIDIA學最到位!】除了硬體上的助益外,為了幫助眾多初學者快速上手深度學習,任職於NVIDIA的本書作者MagnusEkman凝聚了他多年來在NVIDIA所積累的AI知識撰寫了本書。除了介紹深度學習基礎知識外,也包括此領域的最新重要進展。本書同時也是NVIDIA的教育和培訓部門-【深度學習機構(DeepLearningInstitute,DLI)】指定的培訓教材(https://www.nvidia.com/zh-tw/training/books/)。要學深度學習,跟深度學習的重要推手NVIDIA學就對了!眾多紮實的內容保證讓你受益滿滿!【★機器視覺、生成式AI語言模型100%從零開始打造!】在深度學習的教學上,本書將從神經網路的底層知識(梯度下降、反向傳播...)介紹起,帶你打好深度學習的底子。接著會介紹用Colab雲端開發環境+tf.Keras建構、調校多層神經網路,以及經典的CNN(卷積神經網路)圖形辨識模型建構...等機器視覺主題。最後則邁入自然語言處理(NLP)領域,在介紹完基本的RNN/LSTM知識後,以先進的Transformer、GPT...語言模型架構做結。尤其自從ChatGPT爆紅之後,自然語言處理(NLP)一直是深度學習的熱門研究話題,而這部分正是本書最精彩之處!RNN/LSTM神經網路雖然問世已有一段時間,現今一些先進的NLP模型或許不會用它們來建構,但由它們衍生出來的hiddenstate(隱藏狀態)概念可說是重中之重,我們會帶你好好熟悉,以便能跟後續章節順利銜接上。之後則會利用各種神經網路技術帶你實作【多國語言翻譯模型】、【Auto-Complete文字自動完成模型】...等範例。從處理原始文字訓練資料→切割資料集→建構模型→模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型(LLM)的建模基礎。令小編最印象深刻的是,本書所設計的NLP章節內容可說是「環環相扣」,從RNN/LSTM章節初次觸及NLP模型開始,次一章的模型架構幾乎都是為了解決前一章模型的特定問題而生的。這種層層舖墊的獨到方式能讓你深刻理解RNN/LSTM/seq2seq/encoder-decoder/attention/self-attention機制...等技術的發展脈絡,對於看懂Transformer、GPT等最先進的神經網路技術有莫大的幫助,這絕對是其他書看不到的精彩內容!本書特色□【徹底看懂ChatGPT背後核心技術-GPT的模型架構】GPT、Transformer、encoder-decoder、seq2seq、self-attention機制、attention機制、query-key-value機制、Multi-head、位置編碼(positionalencoding)、預訓練(pre-train)、微調(fine-tune)...各種建模技術輕鬆搞懂!□【生成式AI語言模型100%從零開始打造!】‧用Colab+tf.Keras實作多國語言翻譯模型、Auto-Complete文字自動完成模型‧從處理原始文字訓練資料→切割資料集→建構模型→模型調校、優化,從頭到尾示範一遍,帶你紮穩大型語言模型(LLM)的建模基礎□【深度學習基礎知識學好學滿】‧紮穩根基!不被損失函數/梯度下降/反向傳播/正規化/常規化…一拖拉庫技術名詞搞的暈頭轉向!‧深度神經網路基礎/CNN/RNN/LSTM...概念詳解。‧多模態學習(multimodallearning)、多任務學習(multitasklearning)、自動化模型架構搜尋...熱門主題介紹。□詳細解說,流暢翻譯本書由【施威銘研究室】監修,書中針對原書進行大量補充,並適當添加註解,幫助讀者更加理解內容!


機器視覺 NLP 深度學習 AI NVIDIA 翻譯 先進 建模 模型 語言 文字